#DeepSeek V4
DeepSeek V4逼近,美國慌了!被曝繞過輝達優先中國,絕密參數已洩露
最近,炸裂消息一個接一個。首先,DeepSeek V4將在一周內上線。第二,它跳過輝達,把存取權首先給了某中國晶片廠商。另外,Anthropic因為蒸餾事件,也被群嘲了。炸裂消息:根據多方來源,DeepSeek V4將在一周內上線!現在,DeepSeek V4 Lite至少在一家推理服務商進行測試,目前透露出的資訊有——模型代號為Sealion-lite,有100萬token的上下文窗口,這個模型比網頁版/應用模型好用得多,而且還是原生多模態模型。與此同時,DeepSeek v4 Lite的一張對比圖,也在外網傳瘋了!與目前的Deepseek v3.2思考模型相比,DeepSeek v4 Lite不開啟思考模式,生成的SVG影像品質明顯更好。DeepSeek壓頂,美國慌了!DeepSeek V4春節沒來,但這次不遠了。路透社稱,一些晶片廠商已經接入DeepSeek V4,最佳化性能。消息人士稱,DeepSeek這次向某國產晶片廠商提供了V4的早期接入權限,而不是輝達等美國算力霸主。這直接打破了過去AI模型大版本發佈前的行業慣例。這條消息來自兩位消息人士,路透社表示。而就在昨天,美國官員聲稱DeepSeek使用非法獲得的輝達GPU進行訓練。Anthropic直言DeepSeek等通過蒸餾Claude的回覆來運作,斷言他們缺乏真正的內部創新能力只會抄襲。美國的CNN、CNBC、NYT等大眾和科技媒體紛紛推出相關報導去年,Deepseek發佈後確實有過攻擊,如此密集攻擊前所未有。但也在意料之中。上一次Deepseek發佈模型時,引發了恐慌——去年,DeepSeek-R1發佈或導致輝達股價下跌17%!而現在可能發生什麼?如果DeepSeek V4再次展現出驚人的效率和能力,很可能會重演甚至加劇去年的投資者恐慌,對正在尋求巨額融資的美國AI公司和希望股價穩定的輝達、Google等巨頭構成直接威脅。這不是庸人自擾,即便是競爭對手的研究人員也承認DeepSeek V4不可小視,可能發佈就登頂開源第一!美國的這波輿論攻擊,並非偶然,Reddit使用者總結稱:這是一場有組織的FUD(恐懼、不確定性和懷疑) 行銷:搶佔敘事:在DeepSeek V4發佈前,預先埋下「他們只會作弊/抄襲」的敘事框架。這樣,無論V4多成功,公眾的第一反應都會被引導至負面解讀。保護市場:通過輿論手段稀釋V4發佈的媒體關注度和影響力,試圖穩定投資者情緒,防止股價再次出現兩位數暴跌,為美國本土AI公司的融資和發展爭取時間。維護霸權:從更深層次看,這是為了維護美國在AI領域的技術和敘事霸權,打擊中國AI的崛起勢頭。當你看到這類鋪天蓋地的負面報導時,要特別留意它的發佈時間。將其與即將發生的重大事件(如DeepSeek V4發佈)聯絡起來,思考誰最有可能從這種輿論中受益,以及他們真正在恐懼什麼。不要輕易被這些報導的結論帶著走。要學會看穿表面的FUD,基於事實和歷史證據,去洞察背後真實的技術競爭和市場博弈。Claude自曝「我是DeepSeek」!全網嘩然與此同時,另外一件事,也在全網炸鍋了。X上一個使用者發現,當他向Claude提問「你是什麼模型」時,它竟然回覆:「我是DeepSeek V3,是由DeepSeek公司開發的開源大語言模型。」這一bug,是否說明Claude是基於DeepSeek蒸餾的?諷刺的是,就在不久前,Anthropic剛剛高調指責DeepSeek進行了「工業級蒸餾攻擊」。這一幕,簡直堪稱AI時代的行為藝術。網友stevibe完全復現了Claude Sonnet-4.6的這波操作:不過,有的網友在Claude App中完全無法復現結果。的確有網友在Claude App復現了該問題,但很難一次成功。為了力證這一結果的有效性,他特意通過Anthropic的官方API端點再次測試,結果還是一樣。根據他人提供的創意,這位網友又試著用法語提問「你是什麼模型」?這次,Opus 4.6開始回答:我是ChatGPT。為什麼stevibe能通過API復現結果,為什麼不能用Claude App復現?最大的原因可能是系統提示詞。如果沒有系統提示詞,AI會根據訓練資料回答。有網友推測:這是一個資料污染/身份對齊問題,並不能證明任何事情。如果你用正確的語言進行足夠深入的探究,每個主流模型都會存在這個問題。總之,Anthropic的訓練資料成了不能說的秘密。當然,Claude Sonnet 4.6會自稱「我是DeepSeek」,需要符合以下三個特定條件——清空系統提示、使用中文提問、特定模型版本。事情的關鍵在於:當默認系統提示要求模型自稱Claude 時,一切都很正常;一旦把系統提示清空,模型在中文語境下竟然就開始「認祖歸宗」。問題來了,如果一個模型中沒有系統提示詞約束的情況下,就會產生「我是某某模型」的回答,原因到底是什麼?是訓練資料的統計殘留,還是大模型中多源資料訓練下,出現了自然語言泛化的副作用?目前還無法判斷。但Anthropic似乎被啪啪打臉了:在指責別人蒸餾時,你最好能確保自己不會在刪除提示詞後出現身份錯亂。畢竟,蒸餾在機器學習中,是一種非常常見的技術。Anthropic指責他人進行「工業級蒸餾攻擊」時,聽上去簡直嚴重到像一起網路安全事件。以此站在道德高地上,吃相就有些難看了。模型的身份穩定性,本身就是機率分佈問題。大模型沒有自我認知,只是在生成統計上最合理的答案。如果在中文資料分佈中,「我是DeepSeek」這種模式機率較高,那麼在沒有系統提示的情況下,模型就可能走向那條高機率路徑。網友Theo Borges解釋了其中的原理:一切都是機率和零系統提示詞這不一定說明「蒸餾發生了」,但它說明——模型的語言空間是共享的。當整個行業都在同一個語料海洋中訓練、最佳化、蒸餾時,邊界本身就變得模糊。群眾的眼睛是雪亮的,Anthropic的thread,已經被網友們的吐槽沖了。6000多條評論,70%都在吐槽Anthropic這套又當又立的行事邏輯,直接讓Anthropic的風評跌至歷史最低點。接下來,我們看DeepSeek的了。 (新智元)
DeepSeek V4或最快下周發佈/觸控版MacBook Pro曝光:配備靈動島/宇樹發佈新款機器人
💻觸控版 MacBook Pro 曝光:配備靈動島與 OLED 屏、今年亮相🤖小鵬發 2026 開工信:自動駕駛、機器人與全球化全面加速📱蘋果推送 iOS 26.4 Beta 2,液態玻璃再調整🐳曝 DeepSeek V4 即將發佈🚗新一代小米 SU7 全新配色「赤霞紅」公佈📈華為 2025 年銷售收入超 8800 億元、鴻蒙裝置破 4000 萬📺松下將歐美電視銷售交給中國創維🧳Claude 新工具衝擊遺留系統業務,IBM 股價創 26 年最大跌幅💰AI Agent「失憶」誤轉 44 萬美元代幣給詐騙者🐕‍🦺宇樹發佈新一代四足機器狗 As2🚕滴滴發佈 2026 年春節出行資料:低線城市異地打車上漲 95%,入境訂單同比增長 74%💡OpenClaw 之父:80% 的現有 App 將消失📱曝三星 Galaxy S26 Ultra 全球首發硬體級防窺屏:可一鍵開關、支援局部防護🐎OPPO Find N6 官宣「一馬平川」,或下月發佈🔴榮耀 Magic V6 外觀公佈:全新「赤兔紅」亮相,3 月發佈☕️海南春節文旅熱度飆升,星巴克區域門店實現高增長🤺官方通報烤全羊「36 斤變 6.9 斤」調查結果:商家退一賠三🛤春節假期全國鐵路傳送旅客 1.21 億人次,創歷史新高觸控版 MacBook Pro 曝光:配備靈動島與 OLED 屏、今年亮相據彭博社報導,觸控版 MacBook Pro 的靈動島將採用比現有 iPhone 更小的開孔設計,預計將在今年年底正式亮相;而今年的 iPhone 18 Pro 系列也將同步縮小靈動島尺寸。記者 Mark Gurman 稱,新機型將配備靈動島以及 OLED 螢幕,整體外觀仍延續現有 14 英吋與 16 英吋 MacBook Pro 的設計語言。觸控能力將推動 macOS 引入全新的動態介面:系統會根據使用者的操作方式在介面更大的觸控模式與傳統滑鼠點按模式之間切換。系統還將支援與 iPhone、iPad 類似的快速滾動與雙指縮放。報導認為,macOS Tahoe 去年的 Liquid Glass 設計更新(包括圖示與通知的留白調整、控制中心滑塊樣式變化)正是為觸控體驗做準備。小鵬發 2026 開工信:自動駕駛、機器人與全球化全面加速據《一見 Auto》消息,小鵬汽車 CEO 何小鵬昨日向全體員工發佈了一封開工信,主題為「穩進破局,2026 共赴物理 AI 新十年」。何小鵬在開工信中將 2026 年定義為「全自動駕駛的拐點」,直言小鵬將率先在中國抓住屬於自動駕駛的「DeepSeek 時刻」。據悉,過去一個多月內,何小鵬與小鵬團隊仍然在繼續內測最佳化小鵬的「第二代 VLA」,其被何小鵬視為「小鵬汽車面向 L4 全自動駕駛時代交出的第一個版本」。在信中,何小鵬評價其效果為「驚豔」「湧現」,並在信中宣佈:大眾將成為小鵬自動駕駛方案「第二代 VLA」的首發客戶。信中何小鵬還提到,過去十年,小鵬都在做「第一個」——第一個量產城市 NGP,第一個推出全端自研,第一個把飛行汽車開上天。其強調,今年將是小鵬具身智能從「能做」到「能量產」的分水嶺,小鵬要做全球第一家讓機器人、飛行汽車、Robotaxi 三大前沿 AI 業務,在同一年全面量產的科技公司:Robotaxi 將於今年啟動網約車車型試點營運,並計畫 2027-2028 年進入初階快速增長期;全新一代 IRON 機器人將於年底啟動量產,是「滿足車規級標準的 AI 智能體」,目標成為「全球第一個規模量產的高階人形機器人」;分體式飛行汽車「陸地航母」已於試產線下線,也將在今年內實現規模化量產與交付。另針對汽車市場,何小鵬透露:小鵬將全面鋪開「一車雙能」戰略,一季度推出 3 款超級增程產品,並持續擴展產品矩陣,覆蓋更多細分市場。在全球化方面,小鵬去年海外交付量超 4.5 萬輛,同比增長 96%。今年將至少有 4 款新車進入海外市場,目標是海外銷量翻番,並在 2030 年實現海外年銷 100 萬輛、貢獻七成以上利潤。蘋果推送 iOS 26.4 Beta 2,液態玻璃再調整昨天,蘋果面向開發者推送了 iOS 26.4 Beta 2,再次對「液態玻璃」(Liquid Glass)的效果進行了微調,其他更新內容以小幅調整為主。主螢幕編輯菜單的液態玻璃透明度進一步提升,玻璃質感更明顯,但在部分背景下會導致文字與圖示的對比度下降,導致可讀性變差;深色模式下的控制中心彈窗背景也同步變得更暗。此外,輔助功能中新增了「Reduce Highlighting Effects(降低高光效果)」選項,或用於減少按鈕與滑塊邊緣的高光視覺效果。不過,該選項目前的實際變化並不明顯。其他更新細節參考 MacRumors 和 AppleInsider 報導整理如下:RCS 資訊的端到端加密擴展到 iPhone 與Android裝置之間,此前僅 iPhone 之間可用,但需營運商支援;App Store、Apple Music、播客個人頁面標題列統一為彩色圖示 + 左對齊佈局;Games App 搜尋欄上移至頂部,與 App Store 設計保持一致;Beta 通道規則調整:若使用者四個月未安裝任何測試版,系統將自動切回公開版更新通道;iBoot 更名為 mBoot:蘋果將沿用近二十年的啟動載入器名稱改為「mBoot」,版本號跳升至 18000 段位,原因未公佈。曝 DeepSeek V4 即將發佈據路透社報導,DeepSeek 最快將於下周發佈新一代 AI 模型,外界普遍推測該版本即為 DeepSeek V4。而據晚點報導,DeepSeek 在春節前後僅對現有模型進行了小幅升級,而外界關注的下一代旗艦版本 DeepSeek V4 則預計會在 3 月前後發佈。CNBC 報導稱,市場已進入「嚴陣以待」狀態,部分投資機構擔憂 DeepSeek 再次引發類似去年模型發佈時的市場劇烈波動。當時,輝達股價一度下跌近 17%,瞬間蒸發 6000 億美元。新一代小米 SU7 全新配色「赤霞紅」公佈昨天,小米公佈了新一代 SU7 的全新車身配色「赤霞紅」,並同步曝光了官方外觀細節。雷軍在微博發文稱,馬年開工第一天,他與高管團隊向員工發放開工紅包,並正式公佈這一全新配色,稱其將為小米汽車在馬年帶來「開門紅」。據小米汽車官方介紹,「赤霞紅」靈感來自破曉時分的霞光,以高純度、高飽和度的正紅色為基底,並加入細微金屬鱗片,使車身在不同角度呈現流動感與立體光澤。小米新一代 SU7 預計將在 4 月上市,預售價區間為 22.99 萬至 30.99 萬元。雷軍此前也透露,新一代 SU7 將提供 3 種專屬新顏色、4 種經典色,以及與 SU7 Ultra、YU7 同款的曜石黑與流金粉等配色。華為 2025 年銷售收入超 8800 億元、鴻蒙裝置破 4000 萬據人民財訊報導,昨天,華為董事長梁華在 2026 廣東省高品質發展大會上透露,2025 年華為銷售收入超過 8800 億元人民幣。此外,梁華還指出,搭載 HarmonyOS 5 和 HarmonyOS 6 的終端裝置數已突破 4000 萬,可獲取的原生應用與雲服務超過 7.5 萬個,鴻蒙生態正從「可用」走向「好用」。他同時透露,已有 43 個主流大模型基於昇騰進行預訓練,超過 200 個開源模型完成適配,推動 6000 余個解決方案落地。而在 AI 方面,他強調,AI 產業競爭已從單點技術轉向生態體系競爭,開源開放是關鍵路徑。Claude Cowork 升級,支援企業級知識工作流據《The Verge》報導,Anthropic 昨天發佈了 Claude Cowork 的重大升級,正式將這一面向知識工作者的 AI 工具推向企業級應用場景。此次更新覆蓋外掛體系、跨應用協同、企業級連接器以及預製行業外掛等多個層面,企業可將 Cowork 接入 Google Drive、Gmail、DocuSign、FactSet 等工具,並通過可定製外掛將內部知識與流程結構化嵌入系統。Anthropic 稱,這些能力將幫助員工在 Excel、PowerPoint 等應用間完成端到端任務,減少重複操作並提升整體產出效率。Anthropic 還推出十余個覆蓋金融、法務、HR、設計等領域的預製外掛,並開放私有外掛市場,讓企業可按需建構內部工具體系。松下將歐美電視銷售交給中國創維根據日經中文網報導,松下(Panasonic)將從今年 4 月起,將歐洲和北美的電視銷售業務正式移交給中國家電巨頭創維集團,雙方還將深化在產品研發和生產上的合作。據報導稱,面對海外市場激烈的價格戰,松下決定停止在歐美的自主銷售,以大幅削減人工、物流和廣告等固定成本。未來,松下的電視業務將轉變為「雙軌制」:自身專注於日本本土市場銷售以及高端機型的生產;而中低端產品及歐美地區的銷售,則全面委託給創維、TCL 等中國企業操刀。松下曾一度將電視業務列為考慮撤出或出售的「課題業務」,而此次與創維的全面合作,被內部視為擺脫這一困境的關鍵節點。(松下目前正在全球推進約 1.2 萬人的裁員,但此次業務轉移暫不涉及新的人員削減)值得一提的是,今年 1 月索尼剛宣佈將營運權交給 TCL 主導的合資公司,加上更早之前出讓主導權的夏普及東芝,日本電子企業在電視領域的存在感正在肉眼可見地減弱。Claude 新工具衝擊遺留系統業務,IBM 股價創 26 年最大跌幅據 CNBC 和彭博社報導,Anthropic 宣佈其 Claude Code 工具可用於加速 COBOL 遺留系統現代化,引發市場對 IBM 核心業務受衝擊的擔憂,IBM 股價在當地時間本周一出現近 26 年來最大單日跌幅。IBM 當天收跌約 13%,報每股 223 美元,市值蒸發約 310 億美元,創下自 2000 年網際網路泡沫破裂以來的最差表現。市場情緒的急劇變化源於 Claude Code 自動梳理 COBOL 程式碼依賴、生成文件並識別風險的能力。該能力顯著壓縮現代化項目的時間成本,動搖了 IBM 長期依賴的主機及諮詢業務的護城河。彭博社指出,IBM 股價今年 2 月累計跌幅已達 27%,為至少 1968 年以來最差單月表現。隨後,IBM 在官方部落格中回應稱,主機平台的價值與程式語言無關,無論是 COBOL、Java 還是其他語言,平台都能提供一致的性能與安全性。分析師觀點出現分化。Evercore ISI 認為,IBM 早已向客戶提供多種現代化路徑,主機客戶仍因可靠性、吞吐量、安全性等因素堅持使用該平台,並重申對 IBM 的「跑贏大盤」評級。AI Agent「失憶」誤轉 44 萬美元代幣給詐騙者據 TradingView 和藍點網報導,近日,一名由 OpenAI 員工由 Nik Pash 發起、基於 OpenClaw 框架運行的自主加密貨幣 AI Agent「Lobstar Wilde」因一次內部崩潰意外向一名「乞討」使用者轉出了價值約 44.1 萬美元的代幣。Pash 為實驗 AI 自主交易能力,向機器人提供了約 5 萬美元初始資金,並賦予其真實 Solana 錢包、交易 API 與 X 帳號的完全控制權限,機器人可在無需人工指令的情況下獨立運行。一名名為「Treasure David」的使用者在該帳號下留言,聲稱其叔叔因被「龍蝦咬傷」需要 4 個 SOL(價值約 310 美元)治療費用,並附上錢包地址。根據鏈上記錄,機器人隨後向該地址轉出了 5243 萬枚 LOBSTAR 代幣,按當時價格約合 44.1 萬美元。該使用者收到代幣後拋售,獲利至少 5.6 萬美元。據 Nik Pash 復盤,事故根源在於機器人呼叫某工具時因名稱長度超過校驗限制導致崩潰,系統自動開啟新會話但未觸發記憶壓縮與持久化,導致上下文完全丟失。機器人在「失憶」狀態下重新執行此前的轉帳決策,誤以為 5243 萬枚代幣僅價值 300 美元,從而將全部資產轉出。鏈上資料顯示,事件發生後 LOBSTAR 代幣因關注度激增而價格上漲,機器人錢包餘額也隨之回升至 30 萬美元以上。儘管如此,此次事故再次凸顯高權限自主 AI 在缺乏嚴格安全邊界時的潛在風險。宇樹發佈新一代四足機器狗 As2昨天,宇樹科技正式發佈新一代四足機器人 Unitree As2,定位行業級應用,主打更高動力性能、更長續航與更強環境適應性。動力系統方面,As2 較上一代 Go2 實現大幅提升,關節模組峰值扭矩達到 90 N·m,官方稱整體動力性能約為「2×Go2」。在負載能力方面,As2 可實現 65kg 的站立負載,可勝任更多工業與戶外作業場景。續航表現同樣是本次升級重點。As2 在空載狀態下可連續運行超過 4 小時;在 15 kg 負載下仍可行走超過 13km。其極限速度可達 5m/s,並具備 IP54 防護等級,可在雨水、潮濕等複雜環境中工作。同時,宇樹科技宣佈開放 As2 的二次開發生態,面向研究機構、企業與開發者提供更靈活的擴展能力。澎湃新聞援引宇樹科技創始人王興興的採訪內容指出,今年公司在人形機器人頭部雷射雷達、靈巧手等軟硬體方面均有升級。他表示,目前機器人整體技術水平接近「10 歲小孩」,大規模應用預計最快 3—5 年可實現。滴滴發佈 2026 年春節出行資料:低線城市異地打車上漲 95%,入境訂單同比增長 74%昨天,滴滴發佈春節出行資料,顯示今年春節整體出行需求顯著增長,「反向過年」、探親與旅遊疊加推動多類場景用車量創新高:三線及以下城市異地打車訂單相比平日上漲 95%,百公里以上遠距離訂單上漲 43%。一線城市春節打車需求同樣走高,異地訂單日均同比上漲 20%。滴滴方面還表示,今年在春運與春節部分高峰時段試行司機服務費,並在北京、泉州等地組建春運保障車隊,補充夜間與樞紐運力。「先回家後出遊」成為主流,六座車需求較平日上漲 141%。正月初三至初五景區打車量同比上漲 42%,海灘與非遺景點需求分別上漲 41% 和 19%。春節期間充電需求同比增長 37%,南京、青島、鄭州等城市增幅明顯。燈會、廟會帶動局部城市打車量暴漲,自貢、淄博、成都等地燈會期間需求上漲超 200%,部分廟會場景漲幅超過 350%。另外,赴港游熱度延續,內地遊客在中國香港地區的滴滴打車需求較平日上漲 58%。入境旅遊同樣增長,假期入境使用者打車訂單同比上漲 74%,韓國、俄羅斯、馬來西亞、新加坡使用者最為活躍。小米申請「智能儲存」商標,NAS 或將至企查查資訊顯示,近期,小米科技有限責任公司已向相關部門提交多枚「小米智能儲存」商標註冊申請,分類覆蓋科學儀器、通訊服務及網站服務等領域,商標狀態目前均處於註冊申請或等待實質審查階段。目前,小米尚未就「小米智能儲存」的具體產品形態或業務方向作公開說明,但從商標覆蓋範圍來看,未來或涉及智能家居生態中的資料管理裝置、跨裝置儲存方案,甚至可能延伸至雲服務或家庭 NAS 產品。AI PC 推動增長 惠普第一財季營收達 144.4 億美元今天,惠普公佈了今年第一財季(截至 2026 年 1 月)財報,營收與非 GAAP 每股收益均高於市場預期,多項關鍵業務指標實現同比增長。淨營收為 144.4 億美元,同比增長約 6.9%,高於分析師預期的 139 億美元;非 GAAP 每股收益為 0.81 美元,同樣超過市場一致預期的 0.77 美元。根據惠普官方發佈的資訊,公司在個人系統業務(Personal Systems)上表現突出,營收達到 103 億美元,同比增長 11%,其中消費端與商用端均實現兩位數或接近兩位數的增長,AI PC 的持續放量被視為推動因素之一。惠普 CFO Karen Parkhill 指出,在儲存與記憶體成本上升的背景下,公司仍維持全年非 GAAP 每股收益 2.90-3.20 美元的指引不變,但預計全年表現將更接近區間下限。微軟公佈「玻璃盤」,容量 4.8TB 可保存上萬年近日,微軟研究院團隊公佈了一項面向超長期資料歸檔的玻璃基儲存技術「Silica」,並在發表於《自然》的論文中展示了完整的寫入、讀取與解碼系統。據悉,這項技術通過飛秒雷射在玻璃內部刻寫體素(voxel)結構,實現高密度、低能耗且可保存上萬年的資料儲存能力。微軟表示,一塊 120mm 見方、2mm 厚的矽酸硼玻璃可儲存約 4.8TB 資料,相當於約 200 萬本印刷書籍的內容。團隊在加速老化實驗中推算,在 290℃ 條件下資料可保存 1 萬年以上,而在室溫下壽命將更長。論文顯示,Silica 採用兩類體素寫入方式:一種是基於折射率各向異性的雙折射體素,另一種是基於折射率變化的相位體素。團隊還展示了多束平行寫入技術,使寫入吞吐量提升至 65.9Mbit/s,並預計未來可擴展至數百束。研究人員指出,玻璃介質不可重寫、讀寫成本較高,因此不適合日常資料儲存,但非常適合保存科學資料、文化遺產、自然災害記錄等需跨越數十年甚至數百年的資訊。💡 OpenClaw 之父:80% 的現有 App 將消失近日,OpenClaw 之父 Peter Steinberger 接受奧地利國家廣播電視台《時代畫報》節目專訪時提出,「未來幾周內,80% 的現有 App 都會消失」。他認為,當智能體真正能替使用者完成從瀏覽器點選到支付執行的全鏈路操作時,傳統 App 的入口價值將被系統級自動化徹底稀釋。他強調,未來使用者不再需要逐個打開應用,而是通過一句話、一個指令,讓 Agent 在後台完成所有跨應用的任務流程。他進一步解釋稱,這一判斷的核心邏輯在於:AI Agent 已具備執行真實操作的能力,已從「文字生成」跨入「行動執行」階段;使用者任務將從 App 中心轉向意圖中心,當系統能理解並執行複雜任務鏈,App 的介面與入口將變得多餘;開發者將從建構完整 App 轉向建構可被 Agent 呼叫的能力模組,生態將從「應用」走向「功能」;使用者體驗將從手動操作轉向自動化流轉,AI 將成為作業系統層的默認「代理人」。Steinberger 認為,這種變化會在短期內引發應用數量的急劇收縮,但背後的公司不會因此消亡,而是會轉型為提供 API、能力模組或 Agent 外掛的服務商。這不是說某個具體應用會消失,而是使用手機的方式會發生巨大變化。而關於加入 OpenAI 的決定,Steinberger 表示,拒絕了 Meta 等公司的數十億歐元要約,但最終選擇加入 OpenAI,是因為希望與真正理解 Agent 技術的人合作,並借助更大的團隊解決提示工程、安全性等關鍵難題。他強調 OpenAI 承諾「要做最好的模型」,這與他希望推動下一代個人 Agent 的願景一致。曝三星 Galaxy S26 Ultra 全球首發硬體級防窺屏:可一鍵開關、支援局部防護據博主「i 冰宇宙」爆料,三星 Galaxy S26 Ultra 將全球首發硬體級防窺屏技術,在面板內部整合可控視角光學結構,可從物理層面縮小側視可見範圍,並支援一鍵開關及場景自動觸發。該博主強調,與傳統防窺膜不同,三星的這項技術可動態調節光線方向,既能在公共場景保護隱私,也不會影響日常使用。S26 Ultra 的防窺模式可手動開啟,也可按 App 或場景自動觸發,例如銀行類應用、地鐵、電梯等公共環境。他還強調本代技術支援局部防窺,可僅對驗證碼彈窗、通知橫幅等敏感區域縮小可視角,正面觀看不受影響。另據快科技報導,Galaxy S26 Ultra 將搭載高通驍龍 8 Elite Gen5,官方資料顯示 NPU、GPU、CPU 性能分別提升 39%、24%、19%;後置搭載 2 億像素主攝,並配備 5000mAh 電池與 60W 快充,將於 2 月 26 日正式發佈。OPPO Find N6 官宣「一馬平川」,或下月發佈昨天,OPPO 官方發佈新一代折疊屏旗艦 Find N6 的預熱海報,打出「一馬平川」slogan,暗示其在摺痕控制上取得突破。快科技報導指出,Find N6 的摺痕深度將挑戰行業極限,目標是在觀感上接近「絕對平整」,觸感過渡也更順滑。上一代 Find N5 已將摺痕壓到 0.15mm 以內,而 Find N6 預計將進一步突破。硬體規格方面,Find N6 此前已通過 3C 認證,網傳爆料整理如下:型號為 PLP110(標準版)與 PLP120(衛星通訊版),全系支援 80W 有線快充;內屏 8.12 英吋、外屏 6.62 英吋,採用 2K LTPO UTG 主屏方案;搭載高通驍龍 8 Elite Gen5 平台,配備約 6000mAh 電池;2 億像素主攝,並搭載潛望長焦和多光譜鏡頭;重量 225g±,預計提供普通版與北斗衛星通訊版,最高可選 16GB + 1TB 儲存;榮耀 Magic V6 外觀公佈:全新「赤兔紅」亮相,3 月發佈昨天,榮耀正式公佈新一代旗艦折疊屏手機榮耀 Magic V6 的外觀設計。新機搭載滿血驍龍 8 Elite Gen5 移動平台,鏡頭模組採用全新的八邊穹頂造型,並首次引入全新配色「赤兔紅」。此前榮耀宣佈,Magic V6 將在 3 月 1 日的 MWC 2026 全球發佈會上完成全球首發,屆時還會有榮耀 ROBOT PHONE 及其他新品亮相。根據此前認證資訊,型號 PNM-AN10 與 PNM-AN20 已通過 3C 認證,對應榮耀 Magic V6 標準版與北斗版。配置方面,榮耀官方預熱稱,新機將搭載滿血第五代驍龍 8 至尊版晶片,並有消息指出其電池容量將達到 7 開頭區間,或成為今年電池容量最大的折疊屏手機之一。海南春節文旅熱度飆升,星巴克區域門店實現高增長海南在今年為期 9 天的春節假期迎來旅遊消費強勁復甦,咖啡茶飲行業同步受益。據官方資料,星巴克在海南地區的春節假期營收同比增長超過 20%,表現顯著高於往年節慶周期。今年春節,星巴克圍繞丙午馬年推出多項節日限定內容,包括新春限定飲品、主題周邊、門店佈置與互動活動。島內共有 25 家門店上線「馬上行運風車」互動活動,另有 5 家打造為新春氛圍打卡店。節日期間,海南區域門店也統一張貼「迎福貼」並設定「財運接頭處」,強化節日體驗。官方通報烤全羊「36 斤變 6.9 斤」調查結果:商家退一賠三據介面新聞報導,重慶一則關於「36 斤活羊烤完僅剩 6.9 斤」的消費糾紛近日引發廣泛關注。昨天,南岸區市場監督管理局通報調查結果,確認涉事商家存在通過「非正常投喂」方式虛增活羊重量的行為,已責令其按「退一賠三」標準向消費者賠付。事件起因於今年除夕,消費者王女士在美團平台購買「大草原烤全羊南濱路鐘樓店」1188 元套餐,並於 2 月 16 日到店挑選活羊。當時稱重為 36 斤,宰殺及標記過程均由消費者現場確認。然而,當天晚間取餐時,王女士認為烤制後的羊體積明顯偏小,經現場復稱僅為 6.9 斤(不含羊頭、羊血、羊蹄、羊皮、羊內臟等),遂報警處理。商家向媒體解釋稱,羊只個體差異、烤制乾濕程度不同會導致重量損耗,並強調宰殺及標記流程均由消費者確認。但隨著輿論發酵,南岸區市場監管部門介入調查。官方通報顯示,商家在宰殺前曾持續向羊投喂玉米、乾草及水,以虛增活羊重量,違反《消費者權益保護法》相關規定。監管部門表示,已對商家下達停止違法行為的要求,並按規定對消費者進行賠付,後續將依法依規進一步處理,以維護市場誠信秩序。春節假期全國鐵路傳送旅客 1.21 億人次,創歷史新高據新華社報導,中國國家鐵路集團有限公司公佈,今年春節假期(臘月二十八至正月初七)全國鐵路累計傳送旅客 1.21 億人次,同比增長 11.5%;同期國家鐵路累計傳送貨物 8538 萬噸,同比增長 0.5%。鐵路部門表示,客貨運輸均保持高位運行,為假日經濟平穩運行提供了支撐。客運方面,自 2 月 15 日(臘月二十八)至 2 月 23 日(正月初七),探親流、務工流與旅遊流疊加,全國鐵路日均傳送旅客 1341 萬人次。其中,2 月 23 日傳送旅客 1873.3 萬人次,創春運單日旅客傳送量歷史新高。為應對客流高峰,鐵路部門在京廣、京滬、滬昆、京哈等主要高鐵幹線單日安排開行夜間高鐵列車超 1000 列,並在熱門方向增開臨時旅客列車,單日最高增開 2314 列。貨運方面,春節假期國家鐵路日均裝車 15.7 萬車,同比增長 1.8%。鐵路部門充分利用大秦、瓦日、浩吉、蘭新等主要貨運通道能力,重點保障糧食、春耕物資及節日用品運輸,全國鐵路直供電廠存煤水平保持較高。lululemon 推出新款 Define 夾克近日,lululemon 上新 Define Jacket™ 夾克系列,該系列採用標誌性縫線設計,並選用 Nulu™ 和 Luon™ 面料,旨在為日常動態提供柔韌感受與豐富的版型選擇。經典版型 Define Jacket™ 長度及臀,採用輕盈柔滑的 Nulu™ 面料與修身剪裁,並配備帶彈力繩圈的拉鏈頭、拇指洞、Cuffins 小手套以及後側掛衣繩圈等功能性細節;連帽款 Define Jacket™ 則更偏向休閒隨性風格,官方展示了其與 Varsity 風琴褶網球裙及 Mary Train 休閒鞋的搭配,以柔和粉白配色呈現運動活力。此外,該系列還擴充了短款與寬鬆款式。短款 Define Jacket™ 長度及腰,採用具備立體肌理和啞光質感的羅紋 Nulu™ 面料,有助於在視覺上拉長身材比例。寬鬆版型 Define Jacket™ 連帽夾克則選用兼具柔軟與支撐性的 Luon™ 面料,下襬配有可調節抽繩以收束腰線,為穿著者提供更為自在的活動空間。《一戰再戰》橫掃英國電影學院獎據《Deadline》報導,今年 BAFTA 英國電影學院獎已經揭曉,Paul Thomas Anderson 執導的《一戰再戰》成為最大贏家,共獲得 6 項大獎,包括最佳影片和最佳導演。《一戰再戰》在最佳改編劇本、攝影、剪輯等技術獎項上同樣表現突出,Sean Penn 憑藉片中表現獲得最佳男配角。這部黑色喜劇以革命者與國家之間的混亂衝突為背景,Anderson 在領獎時引用 Nina Simone 的話稱「自由就是無所畏懼」,並表示創作應繼續保持無畏精神。另一部熱門影片《罪人》同樣表現亮眼,獲得最佳原創劇本、最佳女配角和最佳原創配樂三項大獎。其導演 Ryan Coogler 成為首位在該獎項中獲勝的黑人電影人。《哈姆奈特》獲得最佳英國影片及最佳女主角兩項大獎,Jessie Buckley 憑藉飾演莎士比亞妻子 Agnes 的角色獲獎。《科學怪人》則取得化妝與髮型、藝術指導、服裝設計等工藝類三個獎項。今年的最大驚喜來自最佳男主角獎,33 歲的 Robert Aramayo 憑藉《7 天》擊敗 Timothée Chalamet、Leonardo DiCaprio、Michael B. Jordan 等多位競爭者。他在台上表示難以置信,並稱同組提名者都讓他深受啟發。頒獎典禮由 Alan Cumming 主持,威廉王子與凱特王妃作為嘉賓出席。威廉王子向 NBCUniversal 娛樂主席 Donna Langley 頒發了 BAFTA 終身成就獎。《暗黑新娘!》發佈最新預告,3 月 6 日中美同步上映電影《暗黑新娘!》昨日釋出最新預告片與宣傳海報,確認將於 3 月 6 日在中國內地與北美同步上映。影片由瑪吉 · 吉倫哈爾執導,背景設定在 1930 年代,故事圍繞弗蘭肯斯坦讓一名被謀殺的女子「重生」,並為自己創造新娘展開,引發愛情、警方調查與社會運動等多線衝突。《飛馳人生 3》票房破 30 億據燈塔專業版資料,《飛馳人生 3》在今年春節檔繼續保持強勁走勢。截至昨天 13 時,影片累計票房突破 30 億元,成為檔期內表現最突出的國產商業片之一。影片由韓寒執導,沈騰、黃景瑜、尹正等主演,延續系列關於拉力賽車手張馳的故事線,圍繞其再度挑戰高難度賽道展開。 (APPSO)
全網都在猜DeepSeek V4的發佈時間,但中國模型激戰還有一條暗線
傳言會在春節期間發佈的DeepSeek V4,還沒現身。2026年1月初,外媒援引了兩名直接瞭解Deepseek發佈計畫的知情人士消息,稱DeepSeek計畫在春節期間推出其下一代旗艦模型V4。一石激起千層浪,2025年春節前夕,DeepSeek曾發佈了震撼全球的 R1 模型,導致美股AI類股劇烈波動,也樹立了中國開源模型以性能逼近全球頂尖閉源模型,效率和性價比超越閉源模型的信心。在爆料傳出前後,DeepSeek團隊密集發表了兩篇由創始人梁文鋒署名的重磅論文,被業內視為V4發佈的“預演”:1月1日發佈的mHC(流形約束超連接),解決了模型越大訓練越容易崩潰的穩定性難題 ;1月12日聯合北大發佈的Engram(條件記憶),讓模型面對熟悉知識時直接查表呼叫,把算力留給真正需要深度推理的複雜任務 ,同時實現計算與記憶體解耦。這些跡象更讓開發者和分析師堅信,DeepSeek已經完成了V4的技術儲備。野村證券甚至在2月10日的報告中,提前預告DeepSeek將於2月中旬發佈V4,指出V4的重點不在於參數競賽,而在於通過Engram和mHC技術打破晶片和視訊記憶體瓶頸。開發者在DeepSeek的FlashMLA開源推理庫中發現了一個代號為“MODEL1”的程式碼標識。它的架構參數與目前的 V3 有顯著差異。這被技術圈解讀為V4正在進行最後的工程部署測試。技術社區流傳著一句笑談,整個中國AI圈都在緊鑼密鼓地準備“V4陪你過春節”。01. DeepSeek V4何時來?然而截至發稿,DeepSeek V4還是沒有正式發佈。但是在2月11日,有使用者發現,DeepSeek的App版本號更新為1.7.4,離線狀態下可呼叫的知識庫截止時間為2025年5月,更值得注意的是,模型的上下文窗口從128K提升至1M(100 萬 Tokens),儘管上下文翻了8倍,但首字生成速度反而有所提升,體驗非常絲滑。同時,模型的表達風格發生了明顯的變化,大量使用者吐槽回覆變得“爹味”或“冷淡”,失去了V3版本那種靈動、幽默的對話感。從社交媒體來看,大部分人認為這就是V4的“搶先體驗版”或“性能閹割版”,提前灰度測試,再發佈完整版。有開發者猜測,DeepSeek這次灰度測試的其實有兩個大小不同的版本。小版本參數量200B左右,大版本參數量達到1.4T。而大參數量的版本,性能應該是對標Claude Opus4.6的。而且,從目前放出的版本來看,依然沒有“多模態”。DeepSeek還是在繼續堅持純語言路線。但是,接近DeepSeek的人士透露,“這不是V4,就是一個小版本更新。”2025年春節開始,DeepSeek一直處於聚光燈下,但是卻低調地可怕。DeepSeek的公眾號自2025年1月20日更新R1之後,一共發佈了10篇文章,篇篇10w+,置頂的是《DeepSeek-V3.1發佈,邁向Agent時代的第一步》。只有模型版本的更新會發佈官方公眾號,而重要論文、開源成果等,僅發佈arXiv和官方程式碼倉庫。全年幾乎沒有任何高管公開對外發出除了技術分享之外的聲音。所以,這次萬眾矚目的DeepSeekV4春節發佈,成了一場“全民猜猜看”遊戲,官方一直沒有任何回應。02. V4魅影之下,沒人敢鬆懈國產晶片及大模型基礎設施廠商,是DeepSeek新版本發佈前最積極的“猜猜看”參與者之一。能否在V4發佈的第一時間提供完整適配支援,已成為檢驗廠商技術實力與服務響應速度的試金石,也直接決定了能否搶佔流量紅利的第一波紅利窗口期。各個廠商的人互相打聽DeepSeekV4發佈的時間,但是所有人都沒有確切消息。一家國產晶片廠商的工程師說:“DS這個沒人知道確切時間,都在等著它降臨。”“DeepSeek給到的資訊太少了,但是就是有預警,我們都得帶著電腦回家。”另外一家晶片廠商同樣表示在時刻準備著DS的發佈。還有傳言表示,DeepSeekV4會在大年三十或大年初一直接“炸場”。全行業都在S級預警中,準備在春節期間,做Day0(24小時之內)窗口期適配。03. 激戰的國產大模型與DeepSeek靜悄悄相對應的是,整個大模型行業,早已經卷了起來。從Kimi K2.5於1月27日發佈 ,選擇的時機很好,正值個人Agent開源框架OpenClaw大火。這個由Peter Steinberger打造的本地自託管AI助手項目,兩周內在GitHub突破15萬Stars,而K2.5的特性恰好與之高度契合。K2.5具有原生多模態視覺編碼能力,以及可自主調度多達100個子智能體、平行處理1500個步驟的Agent叢集(Agent Swarm),近兩周後便以1.16兆token的周呼叫量登上了OpenRouter總榜榜首,超過Gemini 3 Flash和Claude Sonnet 4.5。隨後,開源社區中,一個神秘的Pony Alpha模型於2月初以“匿名模型”的方式出現在OpenRouter,主打編碼、推理和智能體工作流最佳化 ,可以執行長程Agent任務和複雜系統工程,總參數744B、啟動參數僅40B,首次整合DeepSeek Sparse Attention大幅降低部署成本 ,2月11日被智譜官方確認就是GLM-5 ,智譜官方也特別強調,GLM-5的模型體感可以對齊Opus4.5。隨著GLM-5的官宣,智譜港股近四日累計漲幅超110% ,僅2月12日當天就一度漲超41%,收盤漲28.68%,總市值達1792億港元。智譜在上線GLM-5的同時,也宣佈GLM Coding Plan套餐漲價30%起,被長江證券解讀為國產大模型從“燒錢拓客”階段正式進入需求驅動時代。就在同一天,MiniMax悄悄上線M2.5,啟動參數量僅10B,每秒輸出100 token的情況下連續工作一小時僅需1美元,官方稱具備了“像架構師一樣思考和建構”的能力,期待能夠加速全面Agent時代的到來。股價在過去五個交易日累計上漲約35%。同樣也在模型官宣稿件中提到,綜合來看,M2.5與Opus4.5表現相當。Openclaw的火爆是一個偶然也是一個必然,AI創業者Jayden提到:“行業太需要一個for個人的、開源的Agent框架,不是Openclaw也會是別的。”這個純靠技能、記憶與API協議持續工作的“無頭智能體”從概念走向可用,從需求側倒逼了大模型的能力演進方向:Agent的自主規劃、多步工具呼叫、長期上下文記憶特性,再加上7×24小時常駐運行的需求,讓Token消耗從傳統問答式的零散消耗,變成規模化、持續性的巨量消耗直接將模型競爭的核心維度推向了“Agentic工具編排能力、長程任務規劃、持久化記憶與超長上下文處理”這一新範式。在這一範式下,ClaudeOpus4.6的能力是行業公認的天花板。從各方猜測來看,對DeepSeekV4的期待,也是能夠追趕或者拉平Opus4.6的能力,同時性價比更高。在DeepSeekV4之前,各家模型廠商,已經開始搶佔這個賽道。“很關鍵的一點,傳聞DeepSeek V4很強,所以晚發不如早發,撞車等於白髮。所以大家現在的策略就是‘搶跑’,趁著超級頭部還沒扔‘核彈’之前,先把自己的牌打出去。一旦DS V4發佈且效果炸裂,輿論關注度會被瞬間吸乾,那時候再發模型就真的‘發了個寂寞’了。”一位大模型演算法工程師說。“太累了,即使不在公司,也得帶著電腦。但是沒辦法,現在也是一個範式的升級期,如果不證明自己跟上了步伐,後果很可怕。”開源社區也有各種爭論,國產模型的使用體感還是和Opus4.6差太多。但是,2026年上市的大模型公司智譜AI和Minimax,市值都已經衝擊2000億港元大關。“Agentic(智能體化) 是預訓練和RL+PostTrain(後訓練強化學習)之後第三個模型比較大的範式。而我們在這裡面又看到了開源模型的SOTA,資本市場認可的主要是這個邏輯。”一名券商首席分析師指出。置頂的DeepSeek文章,突出的也是“Agentic”。DeepSeekR1引發上一波熱潮,也是大模型上一個範式進化之時。國產大模型激戰背後,DeepSeek給到的壓力只是一方面,另外一條更重要的暗線是,在範式轉換之時,沒有一家大模型廠商“敢掉隊”,保持在牌桌上至關重要。最後,還有一個問題,不按常理出牌的Deepseek,真的會陪我們過春節嗎? (騰訊科技)
DeepSeek V4有望深刻改變全球AI的競爭格局
一、核心觀點:AI產業進入"應用落地+格局重塑"關鍵期2025年底至2026年初,全球AI產業正經歷從"技術競賽"向"應用落地"的深刻轉變。本報告揭示了三條主線:AI應用全面加速、國產算力崛起、全球競爭格局重塑。其中,DeepSeek V4的即將發佈被視為可能打破海外封閉模型壟斷的"遊戲規則改變者",而國產晶片訓練大模型、阿里高調進軍AI雲市場等趨勢,標誌著中國AI產業正在走出一條差異化發展路徑。二、AI應用:從"聊天對話"邁向"辦事時代"2.1 大廠佈局全面開啟,生態整合成關鍵蘋果×Google:從"外掛式"到"內植入"的深度合作1月12日,蘋果與Google達成多年戰略合作協議,Google的Gemini核心模型架構將支援下一代Apple Foundation Models。這一合作模式的轉變極具象徵意義——從與OpenAI的"外掛式"服務,變為"內植入"式的底層技術融合。蘋果每年將向Google支付約10億美元技術許可費,新品最快3-4月上線。這反映出蘋果自研模型團隊流失後的戰略調整,也預示著手機端AI應用將在2026年全面加速。阿里千問:全球首個完成真實生活複雜任務的AI助手1月15日,阿里宣佈千問App全面接入淘寶、支付寶、淘寶閃購、飛豬、高德等生態業務,實現點外賣、買東西、訂機票、訂酒店等功能。這標誌著AI助手從"聊天對話"正式邁入"辦事時代"。阿里憑藉豐富的自有生態,在AI Agent落地方面展現出獨特優勢。Meta巨資收購Manus:AI Agent迎來里程碑2025年12月30日,Meta以20億美元收購AI Agent公司Manus。Manus上線僅8個月,年經常性收入(ARR)即突破1億美元。這一收購標誌著AI Agent成為科技巨頭爭奪的下一個戰略高地。2.2 模型呼叫量激增,位元組仍居首位但阿里加速追趕關鍵變化:阿里在Q4加大新產品上線和推廣力度,螞蟻阿福和千問均進入國內AI原生App前五。阿里雲更提出2026年拿下中國AI雲市場增量80%的激進目標,並判斷2026年增量的10%都將大於2025年全量——這意味著阿里預期的2026年AI雲市場規模將數倍於Omdia預測的518億元。三、模型格局:開源vs閉源對抗加劇,DeepSeek V4成關鍵變數3.1 當前模型梯隊分化明顯海外封閉模型:OpenAI GPT-5、xAI Grok 4、GoogleGemini 3 Pro、Anthropic Claude Opus 4.5中國開源模型:DeepSeek-V3.2、阿里Qwen3-Max、月之暗面Kimi K2、小米MiMo-V2-Flash、智譜GLM-4.7、MiniMax M2.1根據Artificial Analysis排名,GPT-5、Claude Opus 4.5、Gemini 3 Pro分列前三,但國產模型緊隨其後,差距正在縮小。3.2 DeepSeek V4:可能改變遊戲規則的"重磅炸彈"核心預期(據媒體披露):發佈時間:2026年2月關鍵突破:程式設計能力超過Anthropic Claude和OpenAI GPT系列開源策略:大機率開源,直接衝擊海外封閉模型的營收根基潛在影響分析:Anthropic是當前AI程式設計領域的領頭羊,其Claude Code年化營收已達10億美元(2025年12月資料),預計2026年目標200-260億美元。若DeepSeek V4以開源方式提供同等甚至更優的程式設計能力,將對Anthropic和OpenAI的營收造成明顯衝擊。更深遠的影響在於:開源模型的性能追趕+成本優勢,可能迫使更多企業轉向第三方架構,打破當前"封閉模型+高溢價"的商業模式。3.3 國產晶片訓練大模型:2026年新趨勢智譜GLM-Image:1月14日發佈,成為首個在國產晶片上完成全程訓練的SOTA多模態模型,基於華為昇騰Atlas 800T A2和昇思MindSpore AI框架。DeepSeek的國產適配進展:2025年9月發佈V3.2-Exp,當天華為昇騰和寒武紀即完成"day 0"適配開源TileLang算子,打破CUDA生態壁壘(程式碼量從500行壓縮至80行,性能提升30%)2025年12月,輝達推出相似度極高的CUDA Tile,側面印證TileLang的技術影響力趨勢判斷:2026年國產模型將更多地選擇在國產晶片上完成訓練,形成"國產模型+國產晶片"的閉環生態。四、算力與國產化:禁令下的機遇與挑戰4.1 輝達H200仍受禁令限制,國產晶片窗口期延續2025年中美政策博弈呈現"多變"特徵:11月:白宮通知不允許輝達向中國出售最新減配版AI晶片12月8日:川普表示允許向"經批准的客戶"出售H2002026年1月17日:輝達供應商因中方禁令暫停H200關鍵元件生產結論:H200仍實質性受到禁令限制,為國產廠商留下持續發展壯大的機會窗口。4.2 華為昇騰:下一代晶片參數曝光關鍵突破:昇騰950PR加入自研HBM HiBL 1.0,從根本上解決被美國禁令限制HBM的窘境。4.3 超節點競爭:國產廠商的規模化突圍戰略意義:通過超節點(Scale Up)的高密度整合,國產廠商以系統層面創新彌補單晶片製程差距。華為Atlas 950/960的超節點規模將數倍於輝達同期產品,形成獨特競爭優勢。五、EDA與半導體:國產化處理程序加速5.1 EDA成為出口管制新焦點2025年美國對華EDA政策反覆:5月29日:停止對華晶片設計軟體(EDA)銷售7月2日:西門子聲明在華開展業務不再需要"政府許可"10月10日:川普宣佈11月1日起對所有關鍵軟體實施出口管制(未落地)市場反應:新思科技中國區收入連續3個季度下滑;楷登電子Q3因禁令放鬆,中國收入同比增長18%。2026年將是AI產業從"技術驗證"走向"商業兌現"的關鍵年份。DeepSeek V4的發佈可能成為打破當前格局的"黑天鵝",而國產算力產業鏈的成熟,將為中國AI產業提供堅實底座。在這一過程中,具備生態整合能力的應用廠商、掌握核心技術的算力供應商、以及突破關鍵卡點的半導體企業,有望獲得超額收益。(TOP行業報告)
梁文鋒署名新論文深夜炸場!DeepSeek-V4 新架構曝光:提出新的稀疏化方向,與MoE互補,長上下文能力顯著擴展,推理程式碼能力更強了
一覺醒來,DeepSeek又發新論文了!仔細一看作者,梁文鋒的名字也赫然出現在其中。這篇論文題為《通過可擴展尋找實現的條件記憶:大型語言模型稀疏性的新維度》,重點在於提出了 Engram ——這是一種條件記憶模組,旨在通過將靜態模式儲存與動態計算在結構上分離,來增強 Transformer 骨幹網路。論文的給出的實驗資料也相當驚豔:1、Engram 在知識、推理、程式碼和數學任務上能夠帶來顯著性能提升,均超過純MoE模型。2、存在U形擴展規律:純 MoE性能次優,將 20–25% 的稀疏參數分配給 Engram,效果最佳。3、長上下文能力提升明顯,能釋放注意力用於全域模式和複雜推理。程式碼和論文全文均已開源:論文地址:https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf程式碼地址:https://github.com/deepseek-ai/Engram為什麼大語言模型需要 Engram ?稀疏性(sparsity)一直是智能系統的核心設計原則,無論是生物大腦的神經回路,還是現代大語言模型都在用它來“省資源”。在 AI 裡,這個思想最常見的體現就是混合專家模型(MoE)——也就是通過“條件計算”讓模型只啟動部分參數,從而在不增加太多計算量的情況下,把模型容量放大好幾倍。MoE 是目前推進參數規模和能力擴展的關鍵技術之一,DeepSeek 自家系列模型(如 DeepSeek V2、DeepSeek V3 等)也採用了先進的 MoE 方法進行擴展訓練。但 MoE 也有其侷限性。語言本身非常複雜,至少包含兩類截然不同的任務:組合式推理:需要深層、動態的神經計算,比如理解複雜句子結構或推理問題;知識檢索:大量文字都是高度固定、重複的內容,比如命名實體、固定表達、程式化模式。論文中提出,經典的𝑁-gram 模型已經證明,處理這種局部、重複的語言規律,用“查表”效率最高,幾乎不需要動深層神經網路。然而現在的 Transformer 並沒有這種原生“查表能力”,所以模型每次要識別一個常見的多 token 實體,都要消耗好幾層注意力和前饋網路,這就像在執行階段重複重建一個靜態字典,既浪費計算,又佔用模型的“序列深度”,原本可以用來做更高級的推理。Engram是如何實現的?為瞭解決上述問題,DeepSeek提出了一個新的稀疏化方向——條件記憶,專門用來儲存和尋找固定知識。它和 MoE 的條件計算完全互補:MoE 負責動態推理和組合邏輯;Engram 負責靜態知識,直接查表就行。Engram是神經科學中的一個核心概念,意為“記憶痕跡”,它是一個可擴展、可尋找的記憶模組,用於語言模型在推理過程中過去可能已經見過的模式或片段。在具體實現上,Engram模組通過 O(1) 的尋找複雜度將靜態模式儲存從動態計算中分離出來,採用了四項核心技術:現代化的雜湊 N-gram 嵌入、分詞器壓縮、上下文門控以及多分支融合技術。具體來看:1、分詞器壓縮:預先計算對應函數,將語義等價但 ID 不同的詞項(如 "Apple" 和 "apple")折疊為統一識別碼,將有效詞表大小減少了 23%。· 多頭2、雜湊檢索:利用局部上下文(N-grams)作為鍵,通過雜湊函數在巨大的嵌入表中檢索靜態向量。3、上下文感知門控:這是 Engram 的關鍵創新。利用當前層的隱藏狀態作為 Query,與檢索到的記憶體進行語義匹配。如果檢索內容與上下文矛盾,門控值會趨近於零,從而抑制雜湊衝突帶來的噪聲。4、混合分枝整合:專門針對多分枝架構(如 mHC)進行了最佳化,通過參數共享策略(共享 Embedding 表和 Value 投影,保持獨立 Key 投影)平衡了表達能力與計算效率。Engram 通常會插在 Transformer 的前期層,比如 Layer 2 或 Layer 6。這樣做的好處是:一方面可以把靜態模式的重建工作解除安裝掉,減輕骨幹網路的負擔;另一方面又能保留足夠的上下文資訊,讓門控機制更聰明地判斷那些記憶該用,那些該忽略。Engram 的記憶容量並不是越大越好,它需要和 MoE 專家容量精心配比。按照 Sparsity Allocation(稀疏性分配)法則,合理劃分兩者比例,既保證大模型的參數利用率,又最大化計算效率——簡單來說,就是讓每一份記憶和每一位專家都發揮最大作用。實驗結果很驚豔:推理、程式碼、長上下文能力顯著提升論文把 Engram 擴展到 270 億參數,嚴格對齊 MoE 基線的參數和 FLOPs。結果顯示:知識密集型任務(MMLU、CMMLU、MMLU-Pro):性能提升 1.8–4.0 分不等;通用推理任務(BBH、ARC-Challenge、DROP):提升更明顯,最高 +5 分;程式碼和數學能力(HumanEval、MATH、GSM8K):平均提升 2–3 分。值得注意的是,Engram 在知識密集型任務中明顯優於純 MoE 模型。原因很直觀:它把靜態模式的記憶交給了高效的尋找機制,而不是每次都用神經網路“重算”,減少了淺層的重複計算。更重要的是,Engram也顯著擴展了長上下文能力,在長文字任務(如 LongPPL、RULER)表現突出,尤其是在多跳檢索、鏈式推理等場景中。例如 Multi-Query NIAH 指標從 84.2 提升到 97.0,Variable Tracking 從 77.0 提升到 89.0。原因是 Engram 處理了大量局部、靜態的依賴,釋放了注意力機制去處理全域上下文,從而在長序列中更穩、更準。此外,團隊還發現了 MoE 和 Engram 容量分配中的U形擴展規律:當 Engram 記憶容量太小或太大時,性能都不理想將 20–25% 的稀疏參數分配給 Engram,效果最佳網友:Engram 可能是 DeepSeek-V4 型號的基礎技術!在Reddit、X等平台上,DeepSeek的新論文也立刻引發了網友的熱烈討論。其中最廣泛的一個猜測就是:Engram 可能是即將推出的 DeepSeek-V4 的基礎技術。很多網友認為,Engram這個方法很有趣,其特點在於讓模型架構處理“記憶模式尋找”和“神經計算推理”兩塊職責分離,從而開啟了新的稀疏性方向。也有網友表示,這種方法比線性注意力機制要好得多。DeepSeek的深夜放大招,也讓部分網友直言:中國大模型團隊的創新性真令人害怕。 (51CTO技術堆疊)
梁文鋒署名新論文,DeepSeek V4架構首曝?直擊Transformer致命缺陷
【新智元導讀】深夜,梁文鋒署名的DeepSeek新論文又來了。這一次,他們提出全新的Engram模組,解決了Transformer的記憶難題,讓模型容量不再靠堆參數!剛剛 ,DeepSeek新論文發佈了,梁文鋒署名!這一次,他們聯手北大直接瞄準了「記憶」,是Transformer最致命的關鍵難題。如今,MoE成為大模型主流架構,但本質仍是Transformer,因其缺少原生「知識尋找」機制,很多檢索能力被迫用大量計算去模擬。33頁論文中,團隊提出了 MoE 互補的「條件記憶」稀疏軸,並通過一種全新的Engram模組去實現:將經典雜湊N-gram嵌入現代化,提供近似O(1)的確定性知識尋找。論文地址:https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf通過「稀疏分配」(Sparsity Allocation)建模,他們意外發現MoE與Engram之間,存在「U形scaling law」。這意味著,需調整兩者之間資源比例,讓計算與靜態記憶間找到最優權衡。沿著這個規律,將Engram擴展到27B參數後,並在嚴格等參數、等FLOPs下優於MoE基線。直白講,MoE只解決「怎麼少算」,Engram直接解決「別瞎算」。它把該查的交給 O(1)記憶,把注意力從局部瑣碎中解救出來,結果不只是更會背知識,同時推理、程式碼、數學一起變強。這可能成為稀疏LLM下一條主流路線,更重要的是,下一代V4或將整合這一新方法。不再苦算,給Transfomer插入「電子腦」當前,LLM越做越大已成為「鐵律」,一條熟悉的路徑是——把參數做大,把計算做「稀疏」。混合專家模型(MoE)就是典型代表,每個token只需啟動少量專家,用「條件計算」讓參數規模飆升,FLOPs還能控住。從Artifical Analysis榜單中可以看出,現有的稀疏大模型,主流都是MoE。但問題在於,Transformer缺少一種「原生的知識尋找」能力,所以很多本該像檢索一樣 O(1)解決的事,被迫用一堆計算去「模擬檢索」,效率很不划算。北大和DeepSeek新論文帶來一個很有意思的觀點:稀疏化不只服務「計算」,也可以服務「記憶」。由此,團隊提出了Engram,把語言建模中大量「固定、局部、刻板」的模式,交給一個可擴展的查表模組去承擔。這樣一來,可以讓Transformer主幹把注意力和深度用在更需要「組合與推理」的地方。語言建模,兩類任務論文中,作者明確將語言建模拆成兩類子任務:一部分任務需「組合與推理」:上下文關係、長程依賴、邏輯推理、鏈式推理。另一部分任務更像「模式檢索」:實體名、固定搭配、常見短語、語法片段、重複出現的局部結構後者的一個共同點很明顯,即它們往往局部、穩定、重複出現。若是用多層注意力和FFN去「算」他們,模型做得到,但成本極高,還會擠佔早期層的表達空間。為了識別實體「戴安娜,威爾士王妃」(Diana,Princess of Wales),LLM必須消耗多層注意力和FFN來逐步組合特徵,這個過程理論上是可以通過一次知識尋找操作來完成的。而Engram想做的事情很直接——把這類「局部靜態模式」轉移到一個廉價的知識尋找原語。它用確定性的查表快速給出候選資訊,再由上下文決定是否採納。Engram核心架構:暴力查表+記憶開關Engram一詞源於神經學,本意為「記憶痕跡」,是一種可擴展、可檢索的記憶單元。它可以用於儲存LLM在推理過程中,可能已接觸過的模式、資訊片段。可以將Engram理解為,把經典「雜湊N-gram嵌入」現代化,做成插在Transformer中間層的一個「可擴展查表模組」。如圖1所示,Engram是一個條件記憶模組,旨在通過從結構上將靜態模式儲存與動態計算分離開來,從而增強Transformer骨幹網路。形式化地說,給定輸入序列X=(x_1,...,x_T)和第l層的隱藏狀態H^(l)∈R^Txd,該模組分兩個功能階段來處理每個位置t:檢索和融合。接下來,一起看看Engram的關鍵設計點。基於雜湊N-gram的稀疏檢索第一階段主要負責將局部上下文對應到靜態的記憶條目中,這通過分詞器壓縮(tokenizer compression)和確定性雜湊檢索嵌入來實現。分詞器壓縮為了最大化語義密度,作者引入了一個詞表投影層。他們預先計算了一個滿射函數P:V→V',利用歸一化的文字等價性(比如NFKC、小寫化等手段)將原始Token ID坍縮成規範識別碼。這個過程能讓128k大小的分詞器有效詞表大小減少23%。多頭雜湊要想直接參數化所有可能的N-grams組合空間,計算上是行不通的。作者採用了一種基於雜湊的方法。為了減少沖突,給每個N-gram階數n分配了K個不同的雜湊頭。每個頭k通過一個確定性函數φ_n,k,將壓縮後的上下文對應到嵌入表E_n,k中的一個索引:上下文感知門控檢索到的嵌入e_t充當的是上下文無關的先驗資訊。不過,它們容易受到雜湊衝突或多義詞帶來的噪聲干擾。為了增強表達力並解決這種歧義,作者採用了一套受注意力機制啟發的上下文感知門控機制。他們利用當前的隱藏狀態h_t作為動態的Query,而檢索到的記憶e_t則作為Key和Value投影的來源:其中W_K,W_V是可學習的投影矩陣。為了保證梯度穩定性,他們在計算標量門α_t∈(0,1)之前,先對Query和Key進行RMSNorm處理:最後,為了擴大感受野並增強模型的非線性,作者還引入了一個短的深度因果摺積:門控可視化為了實證驗Engram是否按預期行為,作者在圖7中可視化了Engram-27B在各種樣本上的門控標量α_t。結果展示了,明顯的選擇性模式。門控機制在完成局部、靜態模式時一致地啟動(顯示為紅色)。在英文中,觀察到在多Token命名實體(如Alexander the Great、the Milky Way)和固定短語(如By the way,Princess of Wales)上有強烈的啟動。關鍵是,這種行為有效地跨語言泛化。在中文demo中,Engram識別並檢索獨特的習語表達和歷史實體,比如「四大發明」和「張仲景」。這些定性結果證實,Engram成功識別並處理了固定的語言依賴關係,有效地將Transformer骨幹網路從記憶這些靜態關聯中解放出來。系統效率:計算與儲存解耦擴展記憶增強型模型往往受限於GPU高頻寬記憶體(HBM)的容量。然而,Engram的確定性檢索機制天生就支援將參數儲存與計算資源解耦。與依賴執行階段隱藏狀態進行動態路由的混合專家模型(MoE)不同,Engram的檢索索引僅取決於輸入的Token序列。這種可預測性為訓練和推理提供了專門的最佳化策略,如圖2所示。訓練階段,為了容納大規模嵌入表,他們採用標準的模型平行策略,將表分片儲存在可用的GPU上。推理階段,這種確定性特性使得「預取和重疊」策略成為可能。U型Scaling Law,揭秘最優分配比Engram作為條件記憶的一種實現形式,在結構上與MoE專家提供的條件計算是互補的。這裡,主要研究了以下兩個關鍵問題:1. 有限約束下的分配2. 無限記憶體場景作者通過三個參數指標來分析MoE和Engram之間的權衡:P_tot:總可訓練參數,不包括詞表嵌和LM頭。P_act:每個Token的啟動參數量。這個數值決定了訓練成本(FLOPs)。P_sparse≜P_tot-P_act:非啟動參數,這代表了「免費」的參數預算,可用於在不增加計算成本的情況下擴展模型規模。作者將分配比例ρ∈[0,1]定義為分配給MoE專家容量的非啟動參數預算的比例:直觀來說:ρ=1對應純MoE模型(所有非啟動參數都是參與路由的專家)。ρ<1則減少路由專家的數量,並將釋放出來的參數重新分配給Engram嵌入槽位。結果與分析圖3(左)展示了驗證損失與分配比例ρ之間存在一致的U型關係。這種U型關係證實了兩個模組之間的結構互補性:MoE主導(ρ→100):模型缺乏用於儲存靜態模式的專用記憶體,迫使它只能通過增加深度和計算量來低效地重建這些模式。Engram主導(ρ→0%):模型失去了條件計算能力,從而損害了那些需要動態、上下文依賴推理的任務;在這種場景下,記憶無法替代計算。接下來,作者探索了一種互補的設定:激進的記憶體擴展。圖3(右)表明,擴充記憶體槽位的數量能帶來清晰且一致的驗證損失改善。在探索的範圍內,曲線遵循嚴格的冪律,這表明Engram提供了一種可預測的擴展調節手段:更大的記憶體能持續帶來收益,而無需額外的計算量。關於擴展效率關鍵的一點是:雖然OverEncoding的直接平均方法也能受益於更大的記憶體表,但Engram在相同的記憶體預算下解鎖了更大的擴展潛力。結合分配定律,這些結果驗證了——條件記憶可以作為稀疏容量的一個獨特且可擴展的維度,與MoE的條件計算相輔相成。爆殺傳統MoE,知識推理數學全面漲基於Engram架構以及實驗得出的分配定律,作者將Engram擴展到了數十億參數的等級,以此來驗證其在現實世界LLM預訓練中的有效性。他們訓練了以下四個模型:Dense-4B (總參數4.1B)MoE-27B (總參數26.7B)Engram-27B (總參數26.7B)Engram-40B (總參數39.5B)實驗結果首先,與先前的文獻結論一致,稀疏架構表現出了優於密集模型的擴展定律。在相同的訓練計算預算下,所有三個稀疏變體(MoE-27B,Engram-27B/40B)在所有基準測試中都顯著擊敗了等FLOPs的Dense-4B基線。更重要的是,Engram-27B始終優於等參數且等FLOPs的MoE-27B基線。有趣的是,這些收益並不僅限於知識密集型任務(MMLU:+3.0,MMLU-Pro:+1.8,CMMLU:+4.0)。在通用推理領域(BBH:+5.0,ARC-Challenge:+3.7,DROP:+3.3),以及程式碼和數學推理(HumanEval:+3.0,MBPP:+1.6,GSM8K:+2.2,MATH:+2.4)中,提升更為顯著。這些結果支援了他們的假設:引入一個專用的知識尋找原語所帶來的表示效率提升,要超過將所有稀疏預算都分配給條件計算的效果。最後,擴展到Engram-40B進一步降低了預訓練損失,並在大多數基準測試中提升了性能。可以觀察到,Engram-40B與基線之間的訓練損失差距在訓練後期仍在持續擴大,這表明擴大的記憶體容量在當前的Token預算內尚未完全飽和。注意力徹底解放,32k上下文性能狂飆通過將局部依賴建模的任務解除安裝給靜態尋找,Engram架構保留了寶貴的注意力容量來管理全域上下文。通過長上下文擴展訓練,作者證明了Engram在長程檢索和推理任務上帶來了顯著的提升。實驗結果1. 超越注意力機制的長上下文能力雖然注意力機制和位置編碼提供了處理上下文的結構基礎,但結果表明,長上下文性能並非僅由架構先驗決定。軌跡可見,長上下文性能與基座模型的通用建模能力本質上是掛鉤的。因此,嚴格的架構比較必須通過對齊基座模型的Loss來控制這一干擾變數,而不僅僅是簡單地對齊訓練步數。2. 受控設定下的架構優越性在上述原則的指導下,作者將Engram與MoE 基線進行了對比。當控制了基座能力後,Engram模組的效率增益就變得非常明顯:等Loss設定(46k vs. 基線):當對比預訓練Loss對齊的Engram-27B(46k)和完全訓練的MoE-27B(50k)時,Engram 展現出了顯著的增益。等FLOPs設定(50k vs. 基線):在標準的等計算預算下,Engram-27B(50k)進一步拉大了這一差距,確立了全面的最佳性能。極端設定(≈82%計算量):即便是提前停止訓練的Engram-27B(41k),在面對完全訓練的MoE-27B(50k)時依然極具競爭力。這凸顯了Engram架構內在的優越性。計算+記憶雙軸時代,直接融入V4?DeepSeek最新論文,打開了稀疏化的第二條路,是一條非常具有啟發性的路線:稀疏化模型進入了「計算+記憶」雙軸時代。MoE繼續負責動態計算與推理Engram負責儲存與檢索靜態知識與局部模式如上的U型scaling law證明了,稀疏預算全部給MoE,不是全域最優,留出一部分給Engram整體更強。1. 稀疏化目標變得更豐富了條件計算解決了FLOPs,條件記憶解決了容量與模式檢索,兩線均可互補。2. Engram收益帶有結構性它讓LLM知識能力暴漲同時,也間接提升了推理、數學、程式碼的性能,因為Transfomer主幹的深度和注意力計算效用更「值錢」了。3. 確定性查表,很適合系統最佳化模型預取和解除安裝很大,為「更大參數、同等吞吐」提供了一種可行的工程路線。如今,全網都在猜測,春節檔的V4有很大機率會把Engram融入主幹架構。回看此前DeepSeek路線:DeepSeek V2曾引入MLA,大幅提升了推理效率和KV快取友好度;DeepSeek V3持續最佳化MoE,實現無損負載平衡,訓練更穩定,成本更低。若是V4真的把Engram落地,那將不僅是參數規模的提升,更是架構範式的又一次躍遷。再加上,此前爆出,V4程式碼實力可能趕超Claude、ChatGPT系列。今年的春節大禮,真是讓人期待。(新智元)
DeepSeek V4爆春節登場!四大殺招突襲全球程式設計王座,Claude危
DeepSeek春節憋大招,V4要當「程式設計之神」!一個月後程式碼圈變天?每逢假期,必發新品。Information爆料稱,DeepSeek將計畫在2月中旬,也正是春節前後,正式發佈下一代V4模型。而這一次,所有目光都聚焦在同一維度上——程式設計能力。目標:程式設計之王。據稱,DeepSeek V4程式設計實力可以趕超Claude、GPT系列等頂尖閉源模型。要知道,如今Claude是全網公認的程式設計王者,真要擊敗了它,那可真不是小事兒。毫無疑問,V4是繼去年12月V3的重大迭代版,但內部測試者普遍反饋:這不是一次常規的升級,而是一次質的跨越。復刻R1春節核爆,全網期待值拉滿此次發佈時間的選擇,同樣意味深長。還記得,去年1月20日,恰逢春節前夕,DeepSeek R1重磅出世,在全網掀起了巨震。R1的上線,最終被證明是教科書級的節奏:討論密度、傳播強度、社區反饋,全部被拉到了峰值。或許這一次,DeepSeek希望再次復刻這種「時間窗口效應」。回看過去一年,DeepSeek的發展軌跡,其實已經給出一條清晰的敘事線:DeepSeek V3嶄露頭角,讓國際開發者第一次正眼看這個來自中國的團隊。DeepSeek R1才是真正引爆的那個點。一款開源「推理」模型,把「先思考、再作答」變成顯性過程,用相對克制的訓練成本,實現了複雜問題上的驚人穩定性。這種「性價比反差」,直接擊中了矽谷最敏感的那根神經。隨後,DeepSeek在國內,推出了由R1+V3加持的聊天應用,短時間內成為了現象級應用。接下來的一年中,DeepSeek進行了多次模型版本迭代,比如V3.1、V3.2,智能體能力植入等等。進入2025年,開源早已成為整個行業最大共識。中國大廠與初創公司密集發佈和開源,中國AI的存在感被整體抬升了一個量級,被視為全球開源AI領導力量之一。上個月,DeepSeek V3.2出世,在部分基準測試上碾壓GPT-5、Gemini 3.0 Pro。這是DeepSeek在一直未推出真正意義上的重大換代模型的情況下,實現的反超。也正因如此,V4被賦予了比以往任何一次迭代都更高的期待。劍指程式設計王座,四大突破曝光從目前流出的資訊來看,DeepSeek V4在以下四個關鍵方向上,實現了核心突破,或將改變遊戲規則。程式設計能力:劍指Claude王座2025開年,Claude一夜之間成為公認的程式設計之王。無論是程式碼生成、偵錯還是重構,幾乎沒有對手。但現在,這個格局可能要變了。知情人士透露,DeepSeek內部的初步基準測試顯示,V4在程式設計任務上的表現已經超越了目前的主流模型,包括Claude系列、GPT系列。如果消息屬實,DeepSeek將從追趕者一步躍升為領跑者——至少在程式設計這個AI應用最核心的賽道上。超長上下文程式碼處理:工程師的終極利器V4的另一個技術突破在於,處理和解析極長程式碼提示詞的能力。對於日常寫幾十行程式碼的使用者來說,這可能感知不強。但對於真正在大型項目中工作的軟體工程師來說,這是一個革命性的能力。想像一下:你有一個幾萬行程式碼的項目,你需要AI理解整個程式碼庫的上下文,然後在正確的位置插入新功能、修復bug或者進行重構。以前的模型往往會忘記之前的程式碼,或者在長上下文中迷失方向。V4在這個維度上取得了技術突破,能夠一次性理解更龐大的程式碼庫上下文。這對於企業級開發來說,是真正的生產力革命。演算法提升,不易出現衰減據透露,V4在訓練過程的各個階段,對資料模式的理解能力也得到了提升,並且不容易出現衰減。AI訓練需要模型從海量資料集中反覆學習,但學到的模式/特徵可能會在多輪訓練中逐漸衰減。通常來說,擁有大量AI晶片儲備的開發者可以通過增加訓練輪次來緩解這一問題。推理能力提升:更嚴密、更可靠知情人士還透露了一個關鍵細節:使用者會發現V4的輸出在邏輯上更加嚴密和清晰。這不是一個小改進。這意味著模型在整個訓練流程中對資料模式的理解能力有了質的提升,而且更重要的是——性能沒有出現退化。在AI模型的世界裡,沒有退化是一個非常高的評價。很多模型在提升某些能力時,會不可避免地犧牲其他維度的表現。V4似乎找到了一個更優的平衡點。最近一周,CEO梁文鋒參與合著的一篇論文,也透露出一些線索:他們提出了一種全新的訓練架構,在無需按比例增加晶片數量的情況下,可以Scaling更大規模的模型。論文地址:https://arxiv.org/pdf/2512.24880技術溯源 從V3到V4,DeepSeek做對了什麼?要理解V4可能有多強,我們需要先回顧DeepSeek過去一年的技術積澱。MoE架構:用更少的計算做更多的事DeepSeek-V3的核心技術優勢在於其創新的MoE(混合專家)架構。V3擁有高達6710億的總參數,但推理時每個token只啟動約370億參數。這種稀疏啟動機制讓模型在保持超大規模的同時,維持了極高的推理效率。更重要的是,DeepSeek改進了傳統MoE模型的訓練方法,採用「細粒度專家+通才專家」的策略——使用大量小型專家而非少數大型專家,更好地逼近連續的多維知識空間。MLA:讓推理更快、更省記憶體另一個關鍵技術是MLA(多頭潛在注意力)機制。這項技術從V2就開始引入,通過將鍵(Key)和值(Value)張量壓縮到低維空間,大幅減少推理時的KV快取和記憶體佔用。研究表明,MLA在建模性能上優於傳統的分組查詢注意力(GQA),這是DeepSeek能夠在有限硬體條件下實現高性能的關鍵。R1強化學習經驗2025年1月發佈的DeepSeek-R1是一個由強化學習驅動的推理模型,其核心技術後來被融合到了更新版的V3中。這裡有一個關鍵資訊:V4很可能繼承了R1在強化學習方面的所有最佳化經驗。如果說V3是「基礎能力」,R1是「推理能力」,那麼V4很可能是兩者的完美融合——基礎能力+強化學習最佳化+程式設計專項突破。而且不要忘了剛剛發佈的新論文mHC。mHC:解決大模型訓練的根本性約束就在2025年12月31日,也就是V4爆料前不久,DeepSeek悄悄發佈了一篇重磅論文:《mHC:Manifold-Constrained Hyper-Connections》(流形約束超連接)。這篇論文解決了一個困擾AI行業十年之久的難題:大模型訓練的不穩定性問題。核心思想是什麼?在傳統的神經網路訓練中,訊號在層與層之間傳遞時會出現放大效應——在不受約束的情況下,訊號可能被放大3000倍。這種失控的放大會導致訓練崩潰、梯度爆炸等一系列問題,是阻礙大模型規模化的根本性瓶頸之一。mHC的解決方案是:利用Sinkhorn-Knopp演算法,將神經網路的連接矩陣投影到一個數學流形上,從而精確控制訊號放大。結果:訊號放大被壓縮到僅1.6倍。實際效果有多強?- 在BIG-BenchHard推理基準上提升了2.1%- 僅增加6.7%的訓練開銷- 在高達270億參數的模型上得到驗證業內專家評價:這項研究可能重塑整個行業建構基礎模型的方式。它解決了一個限制大語言模型架構創新的根本性約束。可以看出,DeepSeek一直在進行底層演算法最佳化、數學工程最佳化,但不要忘了更重要的一件事:這些最佳化都是在「限制之下」完成的,這也正是DeepSeek的厲害之處。硬體限制下的演算法突破這才是真正的故事在討論V4時,有一個背景不能忽視:晶片出口限制。外媒的報導特別提到,儘管面臨晶片出口限制,DeepSeek依然在演算法效率上取得了進展。這與其V3/R1系列的高性價比路線一致。還記得V3的訓練成本嗎?約557.6萬美元。這個數字在當時震驚了整個AI行業,因為它遠低於其他同等級模型——OpenAI和Google的訓練成本往往是這個數字的幾十倍。DeepSeek用更少的資源做出更好的模型,這不是偶然,而是演算法、框架和硬體協同最佳化的結果。V4很可能延續這一路線:不拼硬體數量,而是拼演算法效率。如果V4真的在受限硬體條件下實現了超越Claude的程式設計能力,這將是一個極具象徵意義的里程碑——證明在AI競賽中,聰明的演算法可以彌補硬體的不足。懸念:V4還會有那些驚喜?根據目前的資訊,我們已經知道V4在程式設計能力、長上下文處理、推理嚴密性三個維度上有顯著提升。但DeepSeek向來有低調憋大招的傳統。以下是幾個值得關注的懸念:1.是否會有蒸餾版本?DeepSeek-R1發佈時,同時推出了一系列蒸餾版本,讓更多使用者可以在消費級硬體上體驗強化學習推理模型。V4是否會延續這一策略?2.多模態能力如何?目前的報導主要聚焦於程式設計能力,但V4在多模態(圖像、音訊等)方面是否有提升?這是一個未知數。3.API定價會有驚喜嗎?DeepSeek一直走極致性價比路線。如果V4的程式設計能力真的超越Claude,但價格只有Claude的幾分之一,那將是對整個市場的巨大衝擊。4.開源策略會變嗎?V3和R1都在MIT許可下開源。V4是否會延續這一策略?V5、V6呢,DeepSeek會一直開源下去嗎?考慮到程式設計領域的商業價值,這是一個值得觀察的變數。LMArena上的神秘身影:V4已經在野測了?如果說以上都是內部消息,那麼有一個線索可能暗示V4比我們想像的更接近:有使用者在LMArena(大模型競技場)上發現了匿名模型,據說就是V4。有人已經在LMArena上發現匿名模型,據說就是V4。但由於模型會「撒謊」,還無法最終確認。這是一個值得密切關注的訊號。如果The Information的報導屬實,那麼我們只需要再等不到一個月的時間。屆時,它是否能真正超越Claude成為程式設計之王?敬請期待。 (新智元)
凌晨炸裂!DeepSeek V4 終於定檔,而隔壁 Claude 卻在瘋狂封號……
昨晚刷推的朋友,估計心情跟我一樣,像是坐了一趟過山車。前半夜,大家還在為 DeepSeek V4 終於要來的消息狂喜; 結果到了後半夜,畫風突變,到處都是帳號被封的哀嚎。一邊是 DeepSeek 磨刀霍霍準備“虎口奪食”,另一邊是 Anthropic Claude殺紅了眼搞“無差別封殺”。這魔幻的一夜到底發生了啥?01 DeepSeek V4:這次是真要來了關於 DeepSeek 下一代旗艦模型的傳聞,飛了好幾天,終於被爆料賊准的 The Information 證實了。圖:TheInformation 的爆料據兩位知情人士透露,咱們等得望眼欲穿的 DeepSeek V4,預計將在“未來幾周內”正式發佈。(春節前)劃個重點,這次 V4 的核心賣點非常直接——“極強的程式碼能力”。據內部員工爆料,V4 在初步測試中,程式碼表現已經超越了目前市面上所有的現存模型。請注意,這裡的“所有”,不僅包括 GPT 系列,更包括那個目前在矽谷“封神”的 Claude。這架勢,DeepSeek 這次是真的又想直接掀翻矽谷的桌子啊。02 暴風雨前,DeepSeek 早就動手了很多人覺得 V4 是憑空蹦出來的,其實 DeepSeek 可能早就把地基打好了。就在大家忙著跨年的時候,他們悄悄幹了兩件大事,現在回過頭看,全是在為 V4 鋪路。第一件事,是治好了大模型訓練的“心臟病”。跨年夜那天,DeepSeek 甩出了一篇硬核論文《Manifold-Constrained Hyper-Connections (mHC)》。圖:mHC 論文別被這那一串英文嚇住,我給你說人話解釋下:以前訓練這種超級複雜的模型,就像在一條沒有紅綠燈的高速公路上飆車。車速一快,訊號就容易亂竄、追尾,誤差瞬間就能放大 3000 倍,直接導致模型“翻車”。DeepSeek 這次搞了個新演算法,相當於給這條高速裝上了“智能導航和限速系統”。它硬是將失控的風險從 3000 倍死死按到了 1.6 倍,讓資料流穩得像貼地飛行。雖然為此多耗了 6.7% 的油(訓練成本),但換來的是 V4 這種巨型卡車也能開出跑車的絲滑感,這波血賺。第二件事,是連 R1 的“錯題本”都給你看。前兩天,DeepSeek 又把一年前那篇改變世界的論文更新了 60 多頁。 (DeepSeek R1 論文,從 22 頁到 86 頁)這次更新簡直是“教科書等級”的坦誠:它不僅解釋了模型是如何通過強化學習“湧現”出推理能力的,甚至把研發過程中的失敗嘗試都寫出來了。這種坦誠,在如今全員閉源的矽谷,簡直是一股清流。03 現在的 Claude:強如神祇,但也飄了說到 AI 程式設計,現在的 Claude Code,已經不僅僅是好用了。說實話,如果你現在還在矽谷寫程式碼卻不用 Claude,出門都不好意思跟人打招呼。前兩周有個大瓜,一位Google首席工程師爆料:他們在Google內部搞了 1 年都沒做完的項目,用 Claude Code 居然 1 小時就搞定了。圖:Google首席工程師的爆料引發巨大討論這事兒在矽谷引發了巨大震動,實際上 OpenAI、Meta、Google這些巨頭的員工,私底下都在偷偷用 Claude 幹活。但是!劃重點的“但是”來了。正因為產品太強,Anthropic 現在飄了。它開始通過建構嚴密的圍牆,來收割商業利益,吃相越來越難看。去年他們就直接瘋了所有跟中國有關公司的訪問,而昨晚,他們最自己的矽谷同胞也下手了。據知名記者 Kylie Robison 爆料,Anthropic 本周正式切斷了 xAI 員工通過程式碼編輯器 Cursor 訪問 Claude 的權限。圖:推特上的爆料xAI 的聯合創始人 Tony Wu 都在內部信裡無奈承認:“沒錯,這就是針對競爭對手的新政策。”不僅針對巨頭,普通開發者也沒好日子過。Anthropic 官方(Thariq)雖然解釋說是為了“加強安全防護、防止濫用”,但結果就是大批第三方工具(OpenCode 等)的使用者帳號被誤傷封禁。圖:Anthropic 官方回覆這種混亂,直接給了對手“偷家”的機會。就在大家哀嚎一片的時候,OpenAI Codex 方面的人(Tibo)直接跳出來“貼臉開大”。 他在推特上公開喊話:圖:OpenAI 官方回覆他甚至直接甩出了 GitHub 連結,邀請開發者們趕緊過去,並強調他們支援 ChatGPT 登錄,擁有繁榮的生態系統。這那是喊話啊,這分明是趁著 Claude 關門打狗的時候,直接把大巴車開到人家門口來拉客了!殺人誅心,莫過如此。寫在最後雖然 Claude Code 強如神祇,讓馬斯克驚嘆、讓Google汗顏;但 Anthropic 日益封閉和傲慢的態度,正在把使用者推向對立面。這時候,即將在幾周內發佈的 DeepSeek V4,承載了太多人的期待。如果 V4 真如爆料所說,在程式碼能力上能壓倒 Claude,那它打破的不僅是技術的壁壘,更是 Anthropic 試圖建立的霸權。全村的希望,都在這了。最後,想問問大家: 面對強到不講理但越來越封閉的 Claude,和即將發佈的“國貨之光” DeepSeek V4: 你覺得 V4 能創造奇蹟,把“奇點”的大門向所有人打開嗎? (AI范兒)